在本文中,我们介绍了基于差异驱动器快照机器人和模拟的用户研究的基于倾斜的控制的实现,目的是将相同的功能带入真正的远程介绍机器人。参与者使用平衡板来控制机器人,并通过头部安装的显示器查看了虚拟环境。使用平衡板作为控制装置的主要动机源于虚拟现实(VR)疾病;即使是您自己的身体与屏幕上看到的动作相匹配的小动作也降低了视力和前庭器官之间的感觉冲突,这是大多数关于VR疾病发作的理论的核心。为了检验平衡委员会作为控制方法的假设比使用操纵杆要少可恶意,我们设计了一个用户研究(n = 32,15名女性),参与者在虚拟环境中驾驶模拟差异驱动器机器人, Nintendo Wii平衡板或操纵杆。但是,我们的预注册的主要假设不得到支持。操纵杆并没有使参与者引起更多的VR疾病,而委员会在统计学上的主观和客观性上都更加难以使用。分析开放式问题表明这些结果可能是有联系的,这意味着使用的困难似乎会影响疾病。即使在测试之前的无限训练时间也没有像熟悉的操纵杆那样容易使用。因此,使董事会更易于使用是启用其潜力的关键。我们为这个目标提供了一些可能性。
translated by 谷歌翻译
本文考虑了使用户能够修改远程介绍机器人的路径的问题。该机器人能够自动导航到用户预定的目标,但是用户可能仍然希望修改路径,例如,远离其他人,或者更靠近她想在途中看到的地标。我们提出了人类影响的动态窗口方法(HI-DWA),这是一种基于动态窗口方法(DWA)的远程置换机器人的共享控制方法,该方法允许用户影响给予机器人的控制输入。为了验证所提出的方法,我们在虚拟现实(VR)中进行了用户研究(n = 32),以将HI-DWA与自主导航和手动控制之间的切换进行比较,以控制在虚拟环境中移动的模拟远程机器人。结果表明,用户使用HI-DWA控制器更快地实现了目标,并发现更容易使用。两种方法之间的偏好平均分配。定性分析表明,首选两种模式之间切换的参与者的主要原因是控制感。我们还分析了不同输入方法,操纵杆和手势,对偏好和感知工作量的影响。
translated by 谷歌翻译
我们建议展开沉浸式远程呈现机器人的用户所经历的轮换,以改善用户的舒适度并减少VR疾病。通过沉浸式远程呈现,我们指的是移动机器人顶部的360 \ TextDegree〜相机的情况将视频和音频流入遥远用户遥远的远程用户佩戴的头戴式展示中。因此,它使得用户能够在机器人的位置处存在,通过转动头部并与机器人附近的人进行通信。通过展开相机框架的旋转,当机器人旋转时,用户的观点不会改变。用户只能通过在其本地设置中物理旋转来改变她的观点;由于没有相应的前庭刺激的视觉旋转是VR疾病的主要来源,预计用户的物理旋转将减少VR疾病。我们实现了展开遍历虚拟环境的模拟机器人的旋转,并将用户学习(n = 34)进行比较,将展开旋转与机器人转弯时的ViewPoint转向。我们的研究结果表明,用户发现更优选且舒适的展开转动,并降低了他们的VR疾病水平。我们还进一步提出了关于用户路径集成功能,观看方向和机器人速度和距离的主观观察到模拟人员和对象的结果。
translated by 谷歌翻译
Various datasets have been proposed for simultaneous localization and mapping (SLAM) and related problems. Existing datasets often include small environments, have incomplete ground truth, or lack important sensor data, such as depth and infrared images. We propose an easy-to-use framework for acquiring building-scale 3D reconstruction using a consumer depth camera. Unlike complex and expensive acquisition setups, our system enables crowd-sourcing, which can greatly benefit data-hungry algorithms. Compared to similar systems, we utilize raw depth maps for odometry computation and loop closure refinement which results in better reconstructions. We acquire a building-scale 3D dataset (BS3D) and demonstrate its value by training an improved monocular depth estimation model. As a unique experiment, we benchmark visual-inertial odometry methods using both color and active infrared images.
translated by 谷歌翻译
Mixup is a popular data augmentation technique for training deep neural networks where additional samples are generated by linearly interpolating pairs of inputs and their labels. This technique is known to improve the generalization performance in many learning paradigms and applications. In this work, we first analyze Mixup and show that it implicitly regularizes infinitely many directional derivatives of all orders. We then propose a new method to improve Mixup based on the novel insight. To demonstrate the effectiveness of the proposed method, we conduct experiments across various domains such as images, tabular data, speech, and graphs. Our results show that the proposed method improves Mixup across various datasets using a variety of architectures, for instance, exhibiting an improvement over Mixup by 0.8% in ImageNet top-1 accuracy.
translated by 谷歌翻译
High-definition (HD) semantic map generation of the environment is an essential component of autonomous driving. Existing methods have achieved good performance in this task by fusing different sensor modalities, such as LiDAR and camera. However, current works are based on raw data or network feature-level fusion and only consider short-range HD map generation, limiting their deployment to realistic autonomous driving applications. In this paper, we focus on the task of building the HD maps in both short ranges, i.e., within 30 m, and also predicting long-range HD maps up to 90 m, which is required by downstream path planning and control tasks to improve the smoothness and safety of autonomous driving. To this end, we propose a novel network named SuperFusion, exploiting the fusion of LiDAR and camera data at multiple levels. We benchmark our SuperFusion on the nuScenes dataset and a self-recorded dataset and show that it outperforms the state-of-the-art baseline methods with large margins. Furthermore, we propose a new metric to evaluate the long-range HD map prediction and apply the generated HD map to a downstream path planning task. The results show that by using the long-range HD maps predicted by our method, we can make better path planning for autonomous vehicles. The code will be available at https://github.com/haomo-ai/SuperFusion.
translated by 谷歌翻译
先前的作品已经为神经集功能建立了固体基础,以及有效的体系结构,这些架构保留了在集合上操作的必要属性,例如对集合元素的排列不变。随后,已经确定了在保持输出上保持一致性保证的同时,依次处理任何随机设置分区方案的任何置换的能力,但已建立了网络体系结构的选项有限。我们进一步研究了神经集编码功能中的MBC特性,建立了一种将任意非MBC模型转换为满足MBC的方法。在此过程中,我们为普遍MBC(UMBC)类的集合功能提供了一个框架。此外,我们探讨了通过我们的框架实现的有趣的辍学策略,并研究了其对测试时间分配变化下的概率校准的影响。我们通过单位测试支持的证据来验证UMBC,还提供了有关玩具数据,清洁和损坏的云云分类的定性/定量实验,并在Imagenet上摊销了聚类。结果表明了UMBC的实用性,我们进一步发现我们的辍学策略改善了不确定性校准。
translated by 谷歌翻译
无源域的适应性(SFDA)旨在通过仅使用预训练的源模型将分类器调整为未标记的目标数据集。但是,缺乏源数据和域移动使目标数据对目标数据的预测不可靠。我们建议量化源模型预测中的不确定性,并利用它来指导目标适应。为此,我们通过在网络参数上合并先验,构建一个概率源模型,从而在模型预测上诱导分布。通过采用拉普拉斯近似值来估算不确定性,并合并以识别不在源歧管中的目标数据点并在最大化目标数据上的共同信息时减少重量。与最近的作品不同,我们的概率处理是计算轻量级,脱离源训练和目标适应,并且不需要专门的源培训或模型体系结构的更改。我们显示了不确定性引导的SFDA比封闭设置和开放式设置中的传统SFDA的优势,并提供了经验证据,即即使没有调整,我们的方法对于强大的域转移也更为强大。
translated by 谷歌翻译
视觉(RE)本地化解决了估计已知场景中捕获的查询图像的6-DOF(自由度)摄像头的问题,该镜头是许多计算机视觉和机器人应用程序的关键构建块。基于结构的本地化的最新进展通过记住从图像像素到场景坐标的映射与神经网络的映射来构建相机姿势优化的2D-3D对应关系。但是,这种记忆需要在每个场景中训练大量的图像,这是沉重效率降低的。相反,通常很少的图像足以覆盖场景的主要区域,以便人类操作员执行视觉定位。在本文中,我们提出了一种场景区域分类方法,以实现几乎没有拍摄图像的快速有效的场景记忆。我们的见解是利用a)预测的特征提取器,b)场景区域分类器和c)元学习策略,以加速培训,同时缓解过度拟合。我们在室内和室外基准上评估了我们的方法。该实验验证了我们方法在几次设置中的有效性,并且训练时间大大减少到只有几分钟。代码可用:\ url {https://github.com/siyandong/src}
translated by 谷歌翻译
深度学习模型已在解决财务时间序列分析问题,推翻常规机器学习和统计方法方面已成为主导。大多数情况下,由于市场条件固有的差异,经过培训的一个市场或安全性的模型不能直接应用于另一个市场或安全性。此外,随着市场随着时间的推移的发展,有必要在提供新数据时更新现有模型或培训新模型。这种情况是大多数财务预测应用程序固有的,自然会提出以下研究问题:如何有效地将预训练的模型适应新的数据集,同时保留旧数据的性能,尤其是当旧数据无法访问时?在本文中,我们提出了一种方法,可以有效保留在一组证券上预先培训的神经网络中可用的知识,并将其调整以实现新的证券。在我们的方法中,通过保持现有连接的固定来维护预先训练的神经网络中编码的先验知识,并且通过一组增强连接对新证券进行调整,并使用新数据对新证券进行了调整。辅助连接被限制为低级。这不仅使我们能够快速针对新任务进行优化,而且还可以降低部署阶段的存储和运行时间复杂性。我们的方法的效率在使用大规模限制订单数据集的股票中价运动预测问题中得到了经验验证。实验结果表明,我们的方法增强了预测性能,并减少了网络参数的总数。
translated by 谷歌翻译